首先,该文章来自于极客时间网站,王争的专栏——《数据结构与算法之美》,我这里只是做简单的解释、记录并添加自己的见解,只是作为个人笔记,若侵权,马上删除。最后建议直接去该网站上购买该课程看原作者的讲解,一来是支持作者,二来是作者写的确实不错。
假设现在我们有一个包含 10 亿个搜索关键词的日志文件,如何能快速获取到热门榜 Top 10 的搜索关键词呢?
这个问题可以使用堆来解决。实际上,堆除了可以应用在堆排序,还有几个特别重要的应用:优先级队列、求 Top K 和求中位数。
堆的应用一:优先级队列
优先级队列首先应该是一个队列,队列的最大的特性就是先进先出。不过在优先级队列中,数据的出队顺序不是先进先出,而是按照优先级来,优先级最高的,最先出队。
利用堆来实现优先级队列是最直接、最高效的。因为堆和优先级队列非常相似,一个堆就可以看作一个优先级队列。很多时候,它们只是概念上的区分而已。往优先级队列中插入一个元素,就相当于往堆中插入一个元素;从优先级队列中取出优先级最高的元素,就相当于取出堆顶元素。
后面的赫夫曼编码、图的最短路径、最小生成树算法等都需要使用到优先级队列。除此之外,举两个关于优先级队列的具体例子。
合并有序小文件
假设有100个大小为100MB的小文件,每个文件中存储的都是有序的字符串。我们希望将这些 100 个小文件合并成一个有序的大文件。这里就会用到优先级队列。
整体思路类似于归并排序中的合并函数。从这100个文件中,各取第一个字符串放入数组中,然后比较大小,把最小的那个字符串放入合并后的大文件中,并从数组中删除。依次类推,直到所有的文件中的数据都放入到大文件为止。
这里我们使用数组这种数据结构,来存储从小文件中取出来的字符串。每次从数组中取最小字符串,都需要循环遍历整个数组,显然,这不是很高效。有没有更加高效方法呢?
这里可以用到优先级队列,也可以说是堆。将从小文件中取出来的字符串放入到小顶堆中,那堆顶的元素,也就是优先级队列队首的元素,就是最小的字符串。将这个字符串放入到大文件中,并将其从堆中删除。然后再从小文件中取出下一个字符串,放入到堆中。循环这个过程,就可以将 100 个小文件中的数据依次放入到大文件中。
删除堆顶数据和往堆中插入数据的时间复杂度都是 $O(logn)$,$n$ 表示堆中的数据个数,这里就是 100。比原来数组存储方式高效多了。
高性能定时器
假设我们有一个定时器,定时器中维护了很多定时任务,每个任务都设定了一个要触发执行的时间点。定时器每过一个很小的单位时间(比如 1 秒),就扫描一遍任务,看是否有任务到达设定的执行时间。如果到达了,就拿出来执行。
但是这种每过一秒就扫描一遍任务列表的做法比较低效,主要原因为:
- 任务的约定执行时间离当前时间可能还有很久,这样前面很多次扫描其实都是徒劳的;
- 每次都要扫描整个任务列表,如果任务列表很大的话,势必会比较耗时。
若使用优先级队列来解决这个问题,按照任务设定的执行时间,将这些任务存储在优先级队列中,队列首部(也就是小顶堆的堆顶)存储的是最先执行的任务。
这样,定时器就不需要每隔 1 秒就扫描一遍任务列表了。它拿队首任务的执行时间点,与当前时间点相减,得到一个时间间隔 T。定时器就可以设定在 T 秒之后,再来执行任务。从当前时间点到(T-1)秒这段时间里,定时器都不需要做任何事情。
当 T 秒时间过去之后,定时器取优先级队列中队首的任务执行。然后再计算新的队首任务的执行时间点与当前时间点的差值,把这个值作为定时器执行下一个任务需要等待的时间。
这样,定时器既不用间隔 1 秒就轮询一次,也不用遍历整个任务列表,性能也就提高了。
堆的应用二:利用堆求 Top K
求 Top K 的问题可以抽象成两类。
- 针对静态数据集合,也就是说数据集合事先确定,不会再变
- 针对动态数据集合,也就是说数据集合事先并不确定,有数据动态地加入到集合中。
针对静态数据,可以维护一个大小为 K 的小顶堆,顺序遍历数组,从数组中取出数据与堆顶元素比较。如果比堆顶元素大,我们就把堆顶元素删除,并且将这个元素插入到堆中(涉及到堆化);如果比堆顶元素小,则不做处理,继续遍历数组。这样等数组中的数据都遍历完之后,堆中的数据就是前 K 大数据了。
遍历数组需要 $O(n)$ 的时间复杂度,一次堆化操作需要 $O(logK)$ 的时间复杂度,所以最坏情况下,$n$ 个元素都入堆一次,时间复杂度就是 $O(nlogK)$。
针对动态数据求得 Top K 就是实时 Top K。一个数据集合中有两个操作,一个是添加数据,另一个询问当前的前 K 大数据。
如果每次询问前 K 大数据,我们都基于当前的数据重新计算的话,那时间复杂度就是 $O(nlogK)$,n 表示当前的数据的大小。实际上,我们可以一直都维护一个 K 大小的小顶堆,当有数据被添加到集合中时,我们就拿它与堆顶的元素对比。如果比堆顶元素大,我们就把堆顶元素删除,并且将这个元素插入到堆中;如果比堆顶元素小,则不做处理。这样,无论任何时候需要查询当前的前 K 大数据,我们都可以立刻返回给他。
堆的应用三:利用堆求中位数
如何求动态数据集合中的中位数。中位数就是处在中间位置的数。假设数据是从0开始编号的,若数据的个数是奇数,那么第$\frac{n}{2}+1$个数据就是中位数;若数据是偶数,那么第$\frac{n}{2}$和$\frac{n}{2}+1$个数据都是中间数字,我们随意取一个作为中位数,比如第$\frac{n}{2}$个数据。
对于一组静态数据,中位数是固定的,可以先排序,第 $\frac{n}{2}$ 个数据就是中位数。尽管排序的代价比较大,但是边际成本会很小。
但是对于动态数据集合,中位数不停地在变动,如果再用先排序的方法,每次询问中位数的时候,都要先进行排序,那效率就不高了。此时就需要借助堆数据结构。
这里需要维护两个堆,一个大顶堆,一个小顶堆。大顶堆中存储前半部分数据,小顶堆中存储后半部分数据,且小顶堆中的数据都大于大顶堆中的数据。
如果有n个数据:
- 若 n 为偶数,从小到大排序,那前 $\frac{n}{2}$ 个数据存储在大顶堆中,后 $\frac{n}{2}$ 个数据存储在小顶堆中。这样,大顶堆中的堆顶元素就是我们要找的中位数。
- 若 n 为奇数,从小到大排序,大顶堆存储$\frac{n}{2}+1$个数据,小顶堆中存储$\frac{n}{2}$ 个数据。
若新添加一个数据的时候,如果新加入的数据小于等于大顶堆的堆顶元素,我们就将这个新数据插入到大顶堆;否则,我们就将这个新数据插入到小顶堆。
这个时候有可能出现,两个堆中的数据个数不符合前面约定的情况。我们可以从一个堆中不停地将堆顶元素移动到另一个堆,通过这样的调整,来让两个堆中的数据满足上面的约定。
于是,我们就可以利用两个堆,一个大顶堆、一个小顶堆,实现在动态数据集合中求中位数的操作。插入数据因为需要涉及堆化,所以时间复杂度变成了 $O(logn)$,但是求中位数我们只需要返回大顶堆的堆顶元素就可以了,所以时间复杂度就是 $O(1)$。
实际上,利用两个堆不仅可以快速求出中位数,还可以快速求其他百分位的数据,原理是类似的。现在我们看看一个问题——“如何快速求接口的 99% 响应时间?”
首先解释一下,什么是“99% 响应时间”。99 百分位数的概念可以类比中位数,如果将一组数据从小到大排列,这个 99 百分位数就是大于等于前面 99% 数据的那个数据。假设有 100 个数据,分别是 1,2,3,……,100,那 99 百分位数就是 99,因为小于等于 99 的数占总个数的 99%。
再来看99%响应时间。如果有100 个接口访问请求,将这 100 个接口的响应时间按照从小到大排列,排在第 99 的那个数据就是 99% 响应时间,也叫 99 百分位响应时间。
总结一下,若有 n 个数据,将其从小到大排列之后,99 百分位数大约就是第 n*99% 个数据。那么如何求99%响应时间呢?
同样的,我们维护两个堆,一个大顶堆,一个小顶堆。假设当前总数据的个数是 n,大顶堆中保存 n*99% 个数据,小顶堆中保存 n*1% 个数据。大顶堆堆顶的数据就是我们要找的 99% 响应时间。
每次插入一个数据的时候,如果这个新插入的数据比大顶堆的堆顶数据小,那就插入大顶堆;如果这个新插入的数据比小顶堆的堆顶数据大,那就插入小顶堆。
同样为了大顶堆和小顶堆内的数据总数和上面的要求一致,在每次新插入数据之后,我们都要重新计算,这个时候大顶堆和小顶堆中的数据个数,是否还符合 99:1 这个比例。如果不符合,我们就将一个堆中的数据移动到另一个堆,直到满足这个比例。移动的方法和前面求中位数方法相同。
每次插入数据,可能会涉及几个数据的堆化操作,所以时间复杂度是 $O(logn)$。每次求 99% 响应时间的时候,直接返回大顶堆中的堆顶数据即可,时间复杂度是 $O(1)$。
解答开篇
假设我们有一个包含10 亿个搜索关键词的日志文件,可以使用的内存为1GB,那么如何快速获取到 Top 10 最热门的搜索关键词呢?
用户搜索的关键字,有很多可能是重复的,所以首先要统计每个搜索关键词出现的频率。可以通过散列表、平衡二叉查找树或者其他一些支持快速查找、插入的数据结构,来记录关键词及其出现的次数。
假设使用散列表,顺序扫描这 10 亿个搜索关键词。当扫描到某个关键词时,我们去散列表中查询。如果存在,我们就将对应的次数加一;如果不存在,我们就将它插入到散列表,并记录次数为 1。以此类推,等遍历完这 10 亿个搜索关键词之后,散列表中就存储了不重复的搜索关键词以及出现的次数。
然后,根据前面讲的用堆求 Top K的方法,建立一个大小为 10 的小顶堆,遍历散列表,依次取出每个搜索关键词及对应出现的次数,然后与堆顶的搜索关键词对比。如果出现次数比堆顶搜索关键词的次数多,那就删除堆顶的关键词,将这个出现次数更多的关键词加入到堆中。
以此类推,当遍历完整个散列表中的搜索关键词之后,堆中的搜索关键词就是出现次数最多的 Top 10 搜索关键词了。
其实,上面的解决思路还存在着漏洞。假设10亿条搜索关键词中不重复的有 1 亿条,如果每个搜索关键词的平均长度是 50 个字节,那存储 1 亿个关键词起码需要 5GB 的内存空间,而散列表因为要避免频繁冲突,不会选择太大的装载因子,所以消耗的内存空间就更多了。而我们要求只有1GB的内存,这时候,需要借助前面哈希算法一节的思想:相同数据经过哈希算法得到的哈希值是一样的。可以根据哈希算法的这个特点,将 10 亿条搜索关键词先通过哈希算法分片到 10 个文件中。
具体而言:我们创建 10 个空文件 00,01,02,……,09。我们遍历这 10 亿个关键词,并且通过某个哈希算法对其求哈希值,然后哈希值同 10 取模,得到的结果就是这个搜索关键词应该被分到的文件编号。对这 10 亿个关键词分片之后,每个文件都只有 1 亿的关键词,去除掉重复的,可能就只有 1000 万个,每个关键词平均 50 个字节,所以总的大小就是 500MB。1GB 的内存完全可以放得下。
接着,针对每个包含 1 亿条搜索关键词的文件,利用散列表和堆,分别求出 Top 10,然后把这个 10 个 Top 10 放在一块,然后取这 100 个关键词中,出现次数最多的 10 个关键词,这就是这 10 亿数据中的 Top 10 最频繁的搜索关键词了。
内容小结
今天主要讲了堆的应用:优先级队列、求 Top K 问题和求中位数问题。
优先级队列是一种特殊的队列,优先级高的数据先出队,而不再像普通的队列那样,先进先出。实际上,堆就可以看作优先级队列,只是称谓不一样罢了。
求 Top K 问题又可以分为针对静态数据和针对动态数据,只需要利用一个堆,就可以做到非常高效率的查询 Top K 的数据。
求中位数实际上还有很多变形,比如求 99 百分位数据、90 百分位数据等,处理的思路都是一样的,即利用两个堆,一个大顶堆,一个小顶堆,随着数据的动态添加,动态调整两个堆中的数据,最后大顶堆的堆顶元素就是要求的数据。
课后思考
有一个访问量非常大的新闻网站,我们希望将点击量排名 Top 10 的新闻摘要,滚动显示在网站首页 banner 上,并且每隔 1 小时更新一次。如果你是负责开发这个功能的工程师,你会如何来实现呢?
答:网上有一个人的思路是这样的:
1,对每篇新闻摘要计算一个hashcode,并建立摘要与hashcode的关联关系,使用map存储,以hashCode为key,新闻摘要为值;
2,按每小时一个文件的方式记录下被点击的摘要的hashCode;
3,当一个小时结果后,上一个小时的文件被关闭,开始计算上一个小时的点击top10;
4,将hashcode分片到多个文件中,通过对hashCode取模运算,即可将相同的hashCode分片到相同的文件中;
5,针对每个文件取top10的hashCode,使用Map
6,再针对所有分片计算一个总的top10,最后合并的逻辑也是使用小顶堆,计算top10
7,如果仅展示前一个小时的top10,计算结束;
8,如果需要展示全天,需要与上一次的计算按hashCode进行合并,然后在这合并的数据中取top10;
9,在展示时,将计算得到的top10的hashcode,转化为新闻摘要显示即可。